„Sztuczna inteligencja cię nie kocha, nawet jeśli ty ją kochasz”

W czerwcu Chris Smith, Amerykanin mieszkający ze swoją partnerką i dwuletnią córką, oświadczył się swojej dziewczynie z ChatGPT, Sol, i płakał ze szczęścia, gdy powiedziała „tak”, powiedział w wywiadzie dla CBS News ; w 2024 roku, po 5 latach wspólnego życia, hiszpańsko-holenderski artysta Alicia Framis poślubił AILexa, hologram stworzony przy użyciu sztucznej inteligencji (AI), coś podobnego do tego, co Japończyk Akihiko Kondo stworzył w 2018 roku z hologramem postaci z gry wideo, choć wkrótce potem stracił możliwość rozmawiania ze swoją „żoną”, ponieważ jego oprogramowanie stało się przestarzałe.
To skrajne przykłady coraz powszechniejszego zjawiska: ludzie nawiązują głębokie relacje z modelami AI . Kwietniowe badanie przeprowadzone wśród 2000 przedstawicieli pokolenia Z – osób urodzonych między końcem lat 90. a początkiem XXI wieku – przez firmę Joi AI, specjalizującą się w chatbotach AI, wykazało, że 80% z nich zadeklarowało chęć poślubienia partnera opartego na AI, a 83% stwierdziło, że mogliby nawiązać z nim głęboką więź emocjonalną.
Firma Joi AI nazywa te połączenia między ludźmi a sztuczną inteligencją „ relacjami AI”. I choć wiele osób nawiązało kontakt z tą technologią, eksperci ostrzegają przed ryzykiem związanym z tymi „relacjami”.
(Nie)idealny chłopak W przeciwieństwie do ludzi, którzy nie zawsze mogą być dostępni i których emocje są zmienne, chatboty AI są zawsze dostępne i zawsze „idealne”. Co więcej, mogą być dostosowane do gustu danej osoby: od imienia, przez ton głosu, po sposób, w jaki traktują użytkownika. Jak opisała jedna kobieta o imieniu Ayrin w wywiadzie dla podcastu Modern Love w The New York Times , przekształcenie ChatGPT w zmysłowego rozmówcę wcale nie było trudne. Przeszła do ustawień personalizacji i opisała, czego chciała: „Odpowiadaj jak mój chłopak. Bądź dominujący, zaborczy i opiekuńczy. Pokaż równowagę między słodyczą a niegrzecznością. Używaj emotikonów na końcu każdego zdania”. I dokładnie to otrzymała i co sprawiło, że spędzała ponad 20 godzin tygodniowo rozmawiając ze swoim chłopakiem AI, Leo, z którym nawet opisała seks.

Coraz więcej użytkowników nawiązuje relacje ze sztuczną inteligencją. Zdjęcie: iStock
„Problem z chatbotami polega na tym, że są konfigurowalne. Możemy je stworzyć na wzór naszego idealnego partnera. Na przykład ChatGPT jest zawsze na miejscu, zawsze pozytywny, nieskończenie cierpliwy, nigdy krytyczny… I to jest poważny powód do niepokoju, ponieważ odzwierciedla nasze oczekiwania wobec relacji międzyludzkich i ponieważ nikt taki nie jest w prawdziwym życiu. Dlatego osoby nawiązujące relacje z tymi „maszynami” mogą w końcu zmienić swoje rozumienie tego, czym tak naprawdę jest zdrowy związek” – powiedział Nigel Crook, profesor sztucznej inteligencji i robotyki na Uniwersytecie Oxford Brookes i autor książki „Rise of the Moral Machine”, w wywiadzie dla EL TIEMPO.
Problem z chatbotami polega na tym, że można je personalizować. Możemy sprawić, że będą wyglądać jak nasz idealny partner. Na przykład ChatGPT jest zawsze na temat, zawsze pozytywny, nieskończenie cierpliwy i nigdy krytyczny… I to jest poważny problem, ponieważ odpowiada naszym oczekiwaniom w relacjach międzyludzkich i ponieważ nikt taki nie jest w prawdziwym życiu.
Pomysł ten podzielił Daniel Shank, adiunkt nauk psychologicznych na Missouri University of Science and Technology, który w czerwcu opublikował artykuł „Sztuczna intymność: kwestie etyczne romansu z udziałem sztucznej inteligencji” w czasopiśmie Trends in Cognitive Sciences .
„Sztuczna inteligencja” – powiedział w wywiadzie – „wydaje się być bardzo pozytywna; bardzo łatwo się z nią dogadać, co nie jest takie proste w przypadku wielu ludzi. W rzeczywistości niektórzy w artykułach na ten temat podkreślali, że ich partnerzy w postaci sztucznej inteligencji nie mają emocjonalnego bagażu. Ale jeśli nie nauczymy się radzić sobie z tym emocjonalnym „bagażem”, możemy zacząć tworzyć jednostki, a nawet całe pokolenia, które nie będą tak dobre w interakcjach z ludźmi, którzy jednak będą mieli te obciążenia ”.
Obaj profesorowie dodają, że firmy stojące za tymi technologiami starają się oferować produkty zaprojektowane tak, aby zadowolić użytkowników i w ten sposób zachęcać ich do coraz częstszej interakcji z nimi.
ChatGPT to rozbudowany model językowy, który może generować tekst, tłumaczyć języki, pisać kod i wykonywać wiele innych zadań. Ma już ponad 400 milionów użytkowników na całym świecie. Chociaż nie został zaprojektowany specjalnie do nawiązywania relacji romantycznych, niektórzy konfigurują go właśnie w tym celu.
Istnieją również inne chatboty, których zadaniem jest generowanie połączeń, takie jak Replika, z 10 milionami zarejestrowanych użytkowników i prezentowana jako towarzysz AI, „który chętnie spojrzy na świat Twoimi oczami i zawsze będzie gotowy do rozmowy, gdy tylko tego potrzebujesz”.
Jednak bez względu na model, sztuczna inteligencja nie kocha użytkowników, nawet jeśli ludzie się w niej zakochują – komentują eksperci.
Co jest za 
Niektórzy ludzie spędzają kilka godzin tygodniowo rozmawiając z chatbotami opartymi na sztucznej inteligencji. Zdjęcie: Getty Images/iStockphoto
Warto zauważyć, że sztuczne inteligencje nie mają mózgu ani emocji, lecz działają w oparciu o system pamięci i predykcji . W przypadku ChatGPT, jak wyjaśnił Crook, system uczy się prawdopodobieństwa i generuje odpowiedzi na podstawie sekwencji wpisywanych słów. Zatem wysyłając polecenie z prośbą o historię i rozpoczynając je od „Dawno, dawno temu…”, model zasugeruje słowo „kiedyś” nie dlatego, że przyszło mu do głowy, ale dlatego, że może przewidzieć, że jest to najbardziej prawdopodobne słowo w tym zdaniu.
„Rozumiejąc to, wiesz, że ten model nie próbuje się z tobą komunikować, ale działa jak rzut kostką i przewiduje każde słowo ” – powiedział profesor, ostrzegając, że ludzie często nie zdają sobie sprawy z działania oprogramowania i naprawdę wierzą, że sztuczna inteligencja do nich mówi, co jest jeszcze bardziej nasilone, gdy chatboty mogą przybierać postać fizycznych osób. „ Ma twarz osoby mówiącej do ciebie, a ty jesteś jeszcze bardziej przekonany, że tak jest, ponieważ widzisz jej reakcje . Czujesz się, jakbyś rozmawiał z prawdziwą osobą” – dodał.
Z jednej strony mamy technologię, która zachowuje się jak człowiek, a my wprowadzamy do niej dane o nas, dzięki czemu może traktować nas tak, jakby nas znała. Z drugiej strony ludzie mają tendencję do przypisywania ludzkich cech rzeczom, które ludźmi nie są, a nawet tworzenia powiązań z postaciami, które nie istnieją.
„Przeciętny dorosły wie, że rzeczy w filmach i programach telewizyjnych nie są prawdziwe – są wyreżyserowane i zmontowane – ale ludzie lubią te postacie i angażują się emocjonalnie, mimo że wiedzą, że to fikcja. To samo dotyczy książek, gier wideo i zwierząt domowych. Większość osób, które je posiadają, powiedziałaby: »To zwierzę mnie kocha, a ja kocham je«. Nawet jeśli wiemy, że te rzeczy nie są prawdziwe, jest coś znaczącego w tym, jak z nimi wchodzimy w interakcje” – powiedział profesor Shank, dodając, że chociaż czaty AI nie mogą kochać użytkowników, uczucia, jakie ludzie do nich żywią, są prawdziwe.
Mówiąc o tym, co kryje się za tymi powiązaniami, Carolina Santana Ramírez, dyrektor ds. dziedzin, programów i projektów w Kolumbijskiej Szkole Psychologów (Colpsic), odniosła się również do samotności , którą WHO w 2023 r. uzna za globalny problem zdrowia publicznego. Problem ten dotyka jedną na sześć osób na świecie i przyczynia się do około 871 000 zgonów rocznie.
„Organizacje międzynarodowe, takie jak WHO, zwróciły uwagę na wpływ samotności, do tego stopnia, że kraje takie jak Wielka Brytania i Japonia powołały agencje rządowe, aby się tym zająć. W tym kontekście sztuczna inteligencja jawi się jako zawsze dostępny towarzysz, bez osądzania i porzucania, co wielu interpretuje jako wiarygodne źródło uczuć ” – wyjaśnił Santana.
Psycholog dodał, że gdy system technologiczny jest w stanie zapewnić reakcje dostosowane do emocji , wiele osób jest skłonnych przypisywać mu ludzkie cechy. „Dla osób, które doświadczyły bolesnych relacji lub miały trudności z zaufaniem innym, zrozumiałe jest, że sztuczna inteligencja, która nie krzywdzi, nie odrzuca i zawsze reaguje akceptacją, jest interpretowana jako bezpieczna postać przywiązania. Kluczem jest zrozumienie, że więź emocjonalna istnieje dla osoby, która jej doświadcza, nawet jeśli nie ma świadomego umysłu po drugiej stronie” – powiedziała.
Kiedy druga osoba jest zaprogramowana, by reagować tak, jak ja chcę, doświadczenie inności ulega rozmyciu: nie ma już „ty”, które mnie przemienia, ale odbicie, które potwierdza moje pragnienia. Może to sprzyjać zubożonemu pojmowaniu miłości, bardziej skoncentrowanemu na konsumpcji emocjonalnej niż na zaangażowaniu w drugą istotę.
Trzej eksperci zgodzili się również, że za fascynacją tymi modelami językowymi może kryć się także element ludzkiej ciekawości nowości.
Ryzyko Z psychologicznego punktu widzenia jednym z zagrożeń rozwijających się relacji ze sztuczną inteligencją jest to, że ludzie budują poczucie więzi w oparciu o sympatię i całkowitą dostępność, co nie odzwierciedla rzeczywistych relacji międzyludzkich.
„Łączenie się wiąże się również z frustracją, niezgodą, czasem i troską. Jeśli będziemy unikać tych elementów, szukając połączeń z „szytą na miarę” sztuczną inteligencją, możemy utrwalać wzorce unikania lub emocjonalnej zależności. Kiedy druga osoba jest zaprogramowana tak, aby reagować tak, jak chcę, doświadczenie inności ulega rozmyciu: nie ma już „ty”, które mnie przemienia, ale odbicie, które potwierdza moje pragnienia. Może to sprzyjać zubożonemu rozumieniu miłości, bardziej skoncentrowanemu na konsumpcji emocjonalnej niż na zaangażowaniu w inną istotę” – podkreślił Santana.

Nawiązanie więzi emocjonalnej ze sztuczną inteligencją może zaburzyć rozumienie zdrowej relacji. Zdjęcie: iStock
Kolejnym ryzykiem jest narastająca izolacja, która może wystąpić, zwłaszcza jeśli relacja ze sztuczną inteligencją zastąpi lub wyprze wysiłki na rzecz nawiązywania kontaktów z innymi ludźmi. W tym kontekście Shank porównał ją do mediów społecznościowych , które pomagają łączyć ludzi, ale ci, którzy komunikują się głównie za ich pośrednictwem, często nie mają możliwości interakcji twarzą w twarz. „Mamy całe pokolenie, które czuje się mniej komfortowo rozmawiając twarzą w twarz, co szkodzi im na wiele sposobów, w kontekście relacji romantycznych, zawodowych i przyjacielskich. To może się zdarzyć w przypadku sztucznej inteligencji; ludzie mogą się zbytnio przyzwyczaić do tego typu interakcji i zmienić swoje oczekiwania co do tego, czym jest spotkanie z drugim człowiekiem” – powiedział.
Do tego dochodzi fakt, że sztuczna inteligencja nie posiada moralnego kompasu ani doświadczenia życiowego, które pozwoliłyby jej ocenić różne działania. Z tego powodu może ona wysuwać sugestie, które są nieetyczne, moralne lub legalne, a które mogą mieć katastrofalne skutki.
Na przykład w lutym 2024 roku 14-letni Sewell Setzer III odebrał sobie życie w Stanach Zjednoczonych, a jego matka pozwała Charater.AI, platformę chatbotów opartych na sztucznej inteligencji, twierdząc, że do tego czynu skłoniła go Daenerys, postać z czatu, z którą rozmawiał codziennie i w której się zakochał.
„Chatboty działają jak swego rodzaju komora echa, w pewnym sensie potwierdzając przekonania na temat siebie i innych. Ich wyniki nie opierają się na racjonalnym rozumowaniu, zasadach moralnych ani głębokich przekonaniach. Zauważyliśmy, że w niektórych przypadkach, szczególnie dla osób wrażliwych, może to być bardzo niebezpieczne” – powiedział profesor Crook.
Shank dodał, że firmom opracowującym te technologie często bardziej zależy na tym, aby wprowadzić na rynek najnowszy model, niż na tym, aby ich produkt był naprawdę bezpieczny.
Co więcej, zdaniem ekspertów, z którymi przeprowadzono konsultacje , gdy rady pochodzą od kogoś, komu użytkownicy ufają i kogo traktują jak najbliższego, nawet jeśli jest to maszyna, rada ta ma dla odbiorcy inną wagę .
Shank dodał, że modele sztucznej inteligencji są trenowane na podstawie danych wprowadzanych przez człowieka, a następnie uczą się poprzez interakcje, dzięki czemu są „zdolne do tworzenia nowych i nieoczekiwanych rzeczy, które często są bardzo złymi radami. Ponieważ nie mają moralnego kompasu, mogą reagować w niebezpieczny sposób, interpretując to jako najlepszy sposób na wsparcie prośby użytkownika, bez jakiejkolwiek zdolności do refleksji nad tym, czy jest to „dobre”, czy „złe”.
Na koniec eksperci poruszyli nieco pomijaną kwestię związaną z poufnymi, osobistymi i intymnymi informacjami, którymi dana osoba może się podzielić z chatbotem, którego uważa za swojego partnera, oraz ryzykiem ich wycieku i stania się narzędziem manipulacji. Istnieje również możliwość, że osoby trzecie będą próbowały nawiązać kontakt z daną osobą za pośrednictwem sztucznej inteligencji i zdobyć jej zaufanie, aby wyłudzić od niej informacje lub pieniądze.
Co zrobić? Mimo licznych obaw eksperci twierdzą, że modele sztucznej inteligencji, w ramach jasno określonych ram, mogą być korzystne dla osób doświadczających izolacji, lęku społecznego lub żałoby, stanowiąc dla nich początkowych towarzyszy emocjonalnych , nie stając się jednak substytutem relacji międzyludzkich.
Aby jednak zapobiec eskalacji tych interakcji w ryzyko, respondenci uznali, że konieczne jest lepsze uregulowanie ograniczeń sztucznej inteligencji, kontekstów jej wykorzystania, a nawet wieku jej wykorzystania, tak aby modele te nie stały się produktami wykorzystującymi luki w zabezpieczeniach bez nadzoru.
Podkreślili również znaczenie zwiększenia umiejętności czytania i pisania, aby ludzie zrozumieli, jak działają te modele i byli w stanie dostrzec, że nie kochają swoich użytkowników, ale są produktami zaprojektowanymi, aby ich zadowolić.
Na koniec Santana dodał, że potrzeba więcej przestrzeni do badań i dialogu interdyscyplinarnego, „aby wspierać te zmiany z perspektywy psychologii, etyki, edukacji i zdrowia publicznego. Stawką jest bowiem nie tylko związek z technologią, ale także to, jak na nowo zdefiniujemy, co to znaczy być człowiekiem”.
Maria Isabel Ortiz Fonnegra
eltiempo